Fahrplan

  1. Kurze Wiederholung: 1PL Gleichungen
  2. Erweiterung: 2PL und 3PL
  3. Modellfit beurteilen
  4. Partial Credit Modelle (PCM)

1PL Modell

\[ logit(P(X_{pi}=1)) = \theta_p - \beta_i \]

Logit

\[ ln\left(\frac{P(X_{pi}=1)}{1-P(X_{pi}=1)}\right) \]

  • Transformation der Ergebnisse unseres linearen Terms, damit die Wahrscheinlichkeitswerte nicht mehr zwischen 0 und 1 liegen und linear modeliert werden können.
  • Wahrscheinlichkeit \(p\) durch Gegenwahrscheinlichkeit \(1-p\).
  • Inverse der logit ist die logistische Funktion.

1PL Modell: Umformen



\[ logit(P(X_{pi}=1)) = \ln\left(\frac{P(X_{pi}=1)}{1-P(X_{pi}=1)}\right) = \theta_p - \beta_i \]

1PL Modell: Umformen

\[ \frac{p_{pi}}{1-p_{pi}} = exp(\theta_p - \beta_i) \]

\[ p_{pi} = exp(\theta_p - \beta_i)*( 1-p_{pi}) \]

1PL Modell: Umformen

\[ p_{pi} + p_{pi} * exp(\theta_p - \beta_i) = exp(\theta_p - \beta_i) \]


\[ p_{pi}*(1+exp(\theta_p - \beta_i)) = exp(\theta_p - \beta_i) \]

1PL Schreibweise 1

\[ P(X_{pi}=1) = \frac{exp(\theta_p - \beta_i)}{1 + exp(\theta_p - \beta_i)} \]

1PL Schreibweise 2

\[ P(X_{pi}=1) = \frac{e^{\theta_p - \beta_i}}{1 + e^{\theta_p - \beta_i}} \]

1PL Schreibweise 3

\[ P(X_{pi}=1) = \frac{1}{1 + e^{\color{#9B1B34}{-}\theta_p \color{#9B1B34}{+} \beta_i}} \]

Beispiel

\[ \frac{exp(1 - 0.8)}{1 + exp(1 - 0.8)} = 0.55 \]

Wahrscheinlichkeit einer richtigen Antwort über 0.5, wenn \(\theta_p > \beta_i\).

Beispiel

\[ \frac{exp(0.8 - 1)}{1 + exp(0.8 - 1)} = 0.45 \]

Wahrscheinlichkeit einer richtigen Antwort unter 0.5, wenn \(\theta_p < \beta_i\).

Höher parametrisierte   IRT Modelle

Neue Paramter

Wir können Parameter zu diesem Modell hinzufügen, wodurch wir flexibler in der Modellierung werden:

  • Schwierigkeit \(\beta_i\) (Intercept)
  • Steigung \(\alpha_i\) (Faktorladung, Diskriminationsparameter)
  • Ratewahrscheinlichkeit \(\gamma_i\)

3PL

\[ P(X_{pi}=1) = \color{#aaa938}{\gamma_i} + (1-\color{#aaa938}{\gamma_i})\frac{exp(\color{#F4BA02}{\alpha_i}(\theta_p - \color{#00e0e0}{\beta_i})))}{1 + exp(\color{#F4BA02}{\alpha_i}(\theta_p - \color{#00e0e0}{\beta_i}))} \]

  • Schwierigkeit
  • Diskriminationsparamter
  • Ratewahrscheinlichkeit
    • z.B. bei 4 Antwortmöglichkeiten: \(\gamma_i = 1/4 = 0.25\)

2PL

\(\gamma_i = 0\)

\[ P(X_{pi}=1) = \color{#9B1B34}{0} + (1-\color{#9B1B34}{0})\frac{exp(\alpha_i(\theta_p - \beta_i)))}{1 + exp(\alpha_i(\theta_p - \beta_i))} \]

1PL

\(\alpha_i = 1\)

\[ P(X_{pi}=1) = 0 + (1-0)\frac{exp(\color{#9B1B34}{1}(\theta_p - \beta_i)))}{1 + exp(\color{#9B1B34}{1}(\theta_p - \beta_i))} \]

Darstellung

Simulieren von IRT Daten

Jetzt ist ein guter Zeitpunkt, und uns ein sehr mächtiges Werkzeug anzuschauen: Datensimulation.
Geht zur Übung und probiert es aus.

Welches Modell?

Tradeoff zwischen Underfit und Overfit

Tradeoff zwischen Underfit und Overfit

Tradeoff zwischen Underfit und Overfit

1PL vs. 3PL

Mehr Parameter müsen nicht immer auch besser sein. Gerade im IRT-Kontext können komplexere Modelle schnell an ihre Grenzen kommen und nicht konvergieren.

1PL

1PL Modelle sind nicht so sehr von den tatsächlichen Daten abhängig (ähnlich wie die lineare Regression im Beispiel) und damit ähnlicher über verschiedene Datenerhebungen (da es weniger Möglichkeiten gibt, sich direkt an die Daten anzupassen). Andererseits kann es natürlich sein, dass sie zu sehr vereinfachen.

1PL vs. 3PL

3PL

Können Personen mit hohen Fähigkeitswerten bestrafen, da die obere Asympotete bei 1 liegt, und somit eine 0% Wahrscheinlichkeit besteht, dass jemand im hohen Fähigkeitsbereich ein Item falsch beantwortet. Andersrum gibt es eine minimale Lösungswahrscheinlichkeit.

Mögliche Punkte

Bei Modellwahl zu beachten:

  • Gewichtung der Items
  • Antwortskala
  • Simulation/Modellfit
  • Ziel

Gesamten Modellfit

Es gibt verschiedene Fit-Statistiken, die uns bei Aussagen über den Modellfit helfen, z.B.:

Deviance

Deviance ist ein Maß für die relative Distanz einer Vorhersage von perfeketer Accuracy.
Wir können uns die Konvergenzplots anschauen:

Code
library(TAM)

data(data.sim.rasch)

mod_2pl <- tam.mml.2pl(resp = data.sim.rasch, verbose = FALSE, irtmodel = "2PL")

plotDevianceTAM(mod_2pl)

Fit Indices (z.B. AIC, BIC)

Da die Deviance (fast) immer besser wird, je mehr Parameter wir ins Modell mit aufnehmen, bestrafen Fit Indices die Anzahl der Parameter.
Keine Daumenregeln für Cutoff Werte, daher für Vergleich von genesteten Modellen.

Code
**** Calculate Residuals 
**** Calculate Counts 
**** Calculate Covariances 
Test of Global Model Fit (Maximum Chi Square)
    maxX2 Npairs p.holm
1 9.79789    780      1

MADaQ3 Statistic and Test of Global Model Fit (Maximum aQ3)
  MADaQ3 maxaQ3      p
1 0.0179 0.0851 0.1082

Summary of Q3 and adjusted Q3 statistics (based on posterior distribution)
  type       M     SD     min    max  SGDDM wSGDDM
1   Q3 -0.0228 0.0227 -0.1011 0.0622 0.0263 0.0263
2  aQ3  0.0000 0.0227 -0.0783 0.0851 0.0179 0.0179

Fit Statistics
100*MADCOV       SRMR      SRMSR 
     0.281      0.014      0.018 

Schätzen die out-of-Sample predictive accuracy. Das muss nicht immer das Ziel sein.

Inferenzstatistisch

Wir könne auch den Likelihood Ratio Test nutzen, um die Modelle zu vergleichen. Er erlaubt zum einen den Vergleich der empirischen und der Modellimplizierten Kovarianzmatrix, aber auch den Vergleich der Kovarianzmatrizen genesteter Modelle.

Hängt von der Stichprobengröße ab und hat auch einige weitere Probleme. Sollte deshalb nicht in Isolation genutzt werden, sondern möglichst mit anderen Fitmaßen, z.B. den besprochenen deskriptiven, zusammen.

Itemfit

Itemfitplots

Erwartete und die beobachtete Itemkurven übereinander:

Code
invisible(
plot(mod_2pl,
  items = 1:3, 
  export = FALSE,
  observed = TRUE,
  package = "graphics")
)

Achtung! Die grafische Überprüfung ist stark von der Anzahl an geplotteten Punkten abhängig, die man wählt.

Infit/Outfit

Residuen-basierte Fit-Statistiken, die die Steigung der ICC characterisieren.

Es sollten also vor allem Items mit einem Fit-Kriterium über 1 genauer betrachtet werden.
Infit/Outfit sind relativ, da sie den Item-Fit relativ zu den anderen Items im Itemset beurteilen.

Cut-off Werte sind abhängig von der Stichprobengröße (siehe hier)

Infit/Outfit

Infit

Sensitiv für Abweichungen bei Items, die von der Schwierigkeit auf die Person zugeschnitten sind (Itemschwierigkeit und Personenfähigkeit passen zu einander).

Outfit

Sensitiv für Outlier (z.B. leistungsstarke Personen beantworten ein sonst leichtes Item falsch)

Code
tam.fit(mod_2pl)
Item fit calculation based on 15 simulations
|**********|
|----------|
$itemfit
   parameter    Outfit     Outfit_t  Outfit_p Outfit_pholm     Infit
1         I1 0.9808900 -0.503929560 0.6143109            1 1.0044605
2         I2 0.9821483 -0.495153795 0.6204916            1 1.0003036
3         I3 1.0075495  0.224221446 0.8225850            1 1.0005996
4         I4 0.9607049 -1.248636332 0.2117981            1 1.0041850
5         I5 0.9965822 -0.110411372 0.9120831            1 0.9984161
6         I6 0.9784949 -0.703656191 0.4816469            1 0.9998774
7         I7 1.0137898  0.464504394 0.6422864            1 0.9975931
8         I8 1.0234909  0.816680668 0.4141109            1 0.9950549
9         I9 1.0327826  1.190373011 0.2338998            1 0.9995432
10       I10 1.0002852  0.009058573 0.9927724            1 1.0032903
11       I11 0.9749500 -0.992578802 0.3209153            1 0.9997828
12       I12 0.9923845 -0.316147128 0.7518908            1 0.9997103
13       I13 0.9739807 -1.157194129 0.2471931            1 0.9985519
14       I14 1.0230449  0.956714074 0.3387116            1 1.0002026
15       I15 1.0115920  0.562204250 0.5739769            1 0.9981670
16       I16 1.0104558  0.478884042 0.6320211            1 0.9973454
17       I17 1.0167664  0.850817481 0.3948707            1 0.9959194
18       I18 0.9913504 -0.429586879 0.6674962            1 1.0007141
19       I19 0.9944392 -0.260303953 0.7946293            1 1.0001048
20       I20 1.0066875  0.319680715 0.7492104            1 0.9966204
21       I21 1.0138793  0.719279031 0.4719690            1 1.0002772
22       I22 0.9893917 -0.533247869 0.5938620            1 1.0035860
23       I23 0.9919065 -0.393194713 0.6941757            1 1.0002268
24       I24 1.0136631  0.624314755 0.5324209            1 1.0001163
25       I25 0.9821929 -0.810494514 0.4176560            1 1.0023113
26       I26 1.0108377  0.479316843 0.6317132            1 0.9982561
27       I27 1.0110645  0.506263655 0.6126716            1 1.0010952
28       I28 0.9853708 -0.626764717 0.5308135            1 0.9992274
29       I29 0.9606857 -1.563688739 0.1178907            1 1.0076567
30       I30 1.0329467  1.371272640 0.1702900            1 1.0022730
31       I31 1.0125422  0.480460289 0.6309001            1 1.0033213
32       I32 1.0052051  0.210414961 0.8333438            1 1.0013155
33       I33 0.9807017 -0.678747333 0.4972980            1 1.0070233
34       I34 1.0054719  0.202923736 0.8391946            1 0.9994981
35       I35 1.0001754  0.003309460 0.9973594            1 1.0032553
36       I36 1.0073451  0.222280747 0.8240953            1 1.0028143
37       I37 0.9711211 -0.868334956 0.3852110            1 1.0009287
38       I38 1.0285225  0.805532532 0.4205124            1 0.9967888
39       I39 0.9808764 -0.507160459 0.6120422            1 1.0010761
40       I40 1.0639980  1.595731071 0.1105488            1 0.9928909
        Infit_t   Infit_p Infit_pholm
1   0.128974458 0.8973779           1
2   0.019019901 0.9848252           1
3   0.027718481 0.9778867           1
4   0.141562479 0.8874256           1
5  -0.043050346 0.9656614           1
6   0.005139344 0.9958994           1
7  -0.073040166 0.9417742           1
8  -0.164966773 0.8689701           1
9  -0.010559407 0.9915750           1
10  0.134228733 0.8932217           1
11 -0.001790983 0.9985710           1
12 -0.005246707 0.9958138           1
13 -0.057478027 0.9541644           1
14  0.015195787 0.9878760           1
15 -0.084482016 0.9326732           1
16 -0.118005478 0.9060633           1
17 -0.203333374 0.8388745           1
18  0.039789398 0.9682610           1
19  0.009750857 0.9922201           1
20 -0.158305111 0.8742164           1
21  0.020278665 0.9838211           1
22  0.182889129 0.8548850           1
23  0.017453711 0.9860747           1
24  0.012918935 0.9896925           1
25  0.107031324 0.9147641           1
26 -0.071811995 0.9427515           1
27  0.055844809 0.9554654           1
28 -0.027589339 0.9779897           1
29  0.307207833 0.7586852           1
30  0.102127153 0.9186557           1
31  0.133153577 0.8940719           1
32  0.058890460 0.9530394           1
33  0.252706205 0.8004953           1
34 -0.009246162 0.9926227           1
35  0.111806394 0.9109769           1
36  0.096110685 0.9234327           1
37  0.036958401 0.9705182           1
38 -0.082530311 0.9342250           1
39  0.039824258 0.9682332           1
40 -0.168183216 0.8664391           1

$time
[1] "2024-10-23 11:26:57 UTC" "2024-10-23 11:26:57 UTC"

$CALL
tam.fit(tamobj = mod_2pl)

attr(,"class")
[1] "tam.fit"

Infit/Outfit

Code
# Definieren einer eigenen Plot-Funkktion
plot_infit_outfit <- function(tam_obj){
fit_tam <- tam.fit(tam_obj)$itemfit

fit_plotdat <- fit_tam %>%
  # Als Faktor umwandeln, damit die Sortierung im Plot stimmt
  mutate(Item = factor(parameter, levels = unique(parameter[order(as.numeric(parameter))]))) %>%
  select(Item, Outfit, Infit) %>%
  pivot_longer(cols = c(Outfit, Infit), names_to = "fit", values_to = "value")

ggplot(fit_plotdat, aes(x = value, y = Item)) +
  geom_point(colour = "#F4BA02") +
  facet_grid(. ~ fit, scales = "fixed") +
  xlim(0.4, 1.6) +
  theme_bg() +
  geom_vline(xintercept = 0.5, linetype = "dotted", colour = "#9B1B34") +
  geom_vline(xintercept = 1.5, linetype = "dotted", colour = "#9B1B34")
}

plot_infit_outfit(mod_2pl)
Item fit calculation based on 15 simulations
|**********|
|----------|

Personfit

Wie gut stimmen die Antwortmuster der Personen mit dem Modell überein?

Infit Outfit

Code
p_fit <- tam.personfit(mod_2pl) %>%
  pivot_longer(cols = c(outfitPerson, infitPerson), names_to = "fit", values_to = "value")

ggplot(p_fit, aes(x = value)) +
  geom_histogram(colour= "#F4BA02", fill = "#01364C", binwidth = 0.1) +
  theme_bg() +
  xlim(0, 2) +
  facet_grid(. ~ fit)

Mögliche weitere Fragestellungen

Wir können uns noch viele weitere Dinge mit unseren Modellen anschauen. Sehr hilfreich dabei kann das Paket ggmirt sein, dass eine Vielzahl von praktischen Plots für die Auswertung bereitstellt.

Item Person Map

Ist die Fähigkeitsrange durch die Items gut Abgedeckt?

itempersonMap(mod_mirt) + theme_bg() 

ICC

tracePlot(mod_mirt) + theme_bg()

ICC

tracePlot(mod_mirt, facet = F, legend = T) + theme_bg()

Item Information Curves

Wie viel Information steuert jedes Item zur Schätzung von Theta bei?

itemInfoPlot(mod_mirt) + theme_bg()

Item Information Curves

itemInfoPlot(mod_mirt, facet = T) + theme_bg()

Test Information Curve

testInfoPlot(mod_mirt, adj_factor = 2) + theme_bg()

Summary

summaryPlot(mod_mirt, adj_factor = 2) +
  theme_bg() 

Was tun bei polytomen Items?

Beispielaufgabe

Ich bin bequem, neige zur Faulheit.

(trift überhaupt nicht zu) 1 … 2 … 3 … 4 … 5 (trift voll und ganz zu)

Wie?

Partial Credit

Grundidee

Erweiterung des 1PL Modells: Den einzelnen Antwortkategorien wird eine eigene Schwierigkeit (Schwellenparameter) zugeordnet. Dadurch können wir die Antwortwahrscheinlichkeit in einer bestimmten Kategorie berechnen.

Anwendungsbereich

Ordinale Daten (geordnete Antwortkategorien), z.B.:

  • Likert-Skalen
  • Items, die auch mit Teilpunkten bewertet werden können (z.B. in Mathe)

Darstellung

Für ein Item:

Raw score curve

Für einen “Test” aus 2 Items:

Alternativen

  • Partial Credit Modelle nehmen die gleiche Steigung für alle Items an.
  • Generalisierte PCMs treffen diese Annahme nicht.
  • Ratingscale Modell: Relative Schwierigkeit der Schwellenparameter unterscheidet sich zwischen den Items nicht (Schritte sind also ähnlich schwer bei jedem Item, z.B. Likert-Skala).

Übung

Gehe zur Partial-Credit-Übung und bearbeite sie.

Bildquellen